你能分辨出谎言吗?在最近的各种政治辩论之后,这个问题一直萦绕在很多人的脑海中。研究表明,我们通常不善于辨别谎言。
一些人认为,人工智能可以帮助提高我们的胜算,并且比测谎仪等不可靠的老式技术做得更好。
或许有一天,基于人工智能的测谎系统可以帮助我们从假新闻中找出事实,评估保险索赔,甚至可能发现求职申请中的谎言和夸大其词。
不过更重要的问题是,我们是否会信任它?以及我们是否应该相信它?
(来源:AI 生成)
在最近的一项研究中,艾丽西亚·冯·申克(Alicia von Schenk)和她的同事开发了一种比人类更善于发现谎言的工具。
德国维尔茨堡大学的经济学家冯·申克(von Schenk)和她的团队随后进行了一些实验,以了解人们是如何使用它的。
在某些方面,这个工具很有帮助,使用它的人更善于发现谎言,但这也导致人们提出更多的指控。
在发表在 iScience 杂志上的研究中,冯·申克(von Schenk)和她的同事要求志愿者写下他们的周末计划。
参与者可以通过撒谎获得奖励,但谎言只能占 50%。例如,他们可以编纂一个可信但不真实的假期计划,来得到小额的金钱奖励。该团队总共收集了 768 人的 1536 份计划陈述。
然后,他们使用了谷歌的人工智能语言模型 BERT,将其中 80% 的语句用来训练分辨谎言和真相的算法。
当他们使用余下 20% 的陈述测试该工具时,他们发现它可以在 67% 的时间里成功判断陈述是真是假。这比普通人要好得多,我们的判断准确率通常只有 50%。
为了了解人们如何利用人工智能帮助他们发现谎言,冯·申克和她的同事将 2040 名其他志愿者分成了更小的小组,并进行了一系列测试。
一项测试显示,当人们要花上一笔小钱才能使用这种可以帮助他们发现谎言并获得经济奖励的人工智能工具时,他们就不太愿意使用它。
冯·申克说,只有三分之一的志愿者决定使用人工智能工具,可能是因为他们对这项技术持怀疑态度。她补充道,也可能是他们对自己的测谎技能过于乐观。
但这三分之一的人真正信任这项技术。冯·申克说:“当你主动选择使用这项技术时,我们发现人们几乎总是遵循人工智能的预测……他们非常依赖它的预测。”
这种依赖可以影响我们的行为。通常,人们倾向于认为别人说的是实话。这一点在这项研究中得到了证实,尽管志愿者知道一半的陈述是假的,但他们只标记了 19% 的陈述为谎言。
但当人们选择使用人工智能工具时,情况发生了变化,谎言的指控率上升到了 58%。
在某些方面,这是一件好事。这些工具可以帮助我们发现更多生活中遇到的谎言,比如我们可能在社交媒体上看到的错误信息。
但这并不全是好事。它还可能破坏信任,而信任是人类行为的一个基础,有助于我们建立关系。如果准确判断的代价是社会纽带的恶化,这值得吗?
还有准确性的问题。在他们的研究中,冯·申克和她的同事只对创造一种在测谎方面比人类更好的工具感兴趣。考虑到人类在这方面本就不擅长,这并不难实现。
但在她的设想中,像这样的工具还可以被用来评估社交媒体帖子的真实性,或者在求职者的简历或面试回复中寻找虚假细节。
在这种情况下,如果一项技术会做出更多的指控,那么仅仅“比人类更好”是不够的。
我们是否愿意接受 80% 的准确率,即每五个陈述评估中只有四个是判断准确的?如果 80% 不够,那么 99% 的准确率够吗?我不知道。
值得注意的是,过去的测谎技术容易出错。测谎仪是用来测量心率和其他“唤醒(arousal)”迹象的,因为人们误认为有些压力迹象是骗子独有的,可它们不是。
我们早就知道这一点了。这就是为什么测谎仪的结果通常不被美国法庭所接受。
尽管如此,测谎在某些情况下仍然存在,当它们被用在真人秀节目中时,会对未通过测谎的人造成很大的伤害。
冯·申克说,不完美的人工智能工具将产生更大的影响,因为它们很容易扩大规模。
测谎仪一天只能对一定数量的人进行测谎。相比之下,人工智能测谎的范围几乎是无限的。
冯·申克说:“鉴于我们有那么多假新闻和虚假信息在传播,这些技术是有用武之地的。然而,你需要测试它们,你需要确保它们比人类好得多。”
她表示,如果人工智能测谎仪产生了过多的指控,我们最好的选择就是不要使用它。